家医健康
国内健康世界健康探索科学

调查显示:AI在肿瘤学中不可或缺,但有效性问题仍然存在

新闻时间:2025年1月3日 - 更新时间:2025-01-06 06:09:51
来源:OncLive
语言:英语,所在国:美国
分类:科技与健康 , 关键词:AI与医疗健康

根据OncLive®进行的一项调查结果,近一半的肿瘤学家正在使用人工智能AI)工具进行文档和沟通/编辑工作,而大多数人预计在未来5到10年内AI集成将显著增加。

在这项共收集了30份回复的调查中,43.3%的肿瘤学家表示他们使用AI工具进行文档/沟通/编辑工作,其次是影像分析(26.7%),治疗决策支持系统(26.7%),病理学(13.3%)以及患者报告的生活质量(QOL)工具(6.7%)。此外,46.7%的参与者选择了“其他”工具,包括Dragon、ChatGPT和AlphaFold2,这是一种结构预测程序。

在30位受访的肿瘤学家中,大部分是学术型肿瘤学家(66.7%),其次是社区医学肿瘤学家(16.7%),外科肿瘤学家(6.7%),血液病学家、放射肿瘤学家和其他(各占3.3%)。

对于依赖AI工具进行沟通/文档编辑的肿瘤学家,他们表示有时(23.3%)、很少(20.0%)或经常(13.3%)使用这些工具。展望未来,63.3%的受访者预计AI集成将显著增加,30.0%认为会适度增加,仅3.3%认为其使用量将保持不变。一位参与者补充说,手术直觉仍然是必要的。

布鲁克林的Maimonides癌症中心、Maimonides乳腺中心的外科系主席兼《OncologyLive®》编委会成员Patrick I. Borgen博士在接受OncLive采访时表示:“人工智能是我们所有人未来的不可逃避的现实,我们已经在使用它帮助患者预约和管理这些预约。目前我最感兴趣的是决策支持。”Borgen解释道,在乳腺癌方面,2024年的圣安东尼奥乳腺癌研讨会上,我们看到针对转移性HER2阳性乳腺癌有5种个性化治疗方案。每个步骤大约有25个步骤,每个步骤都有支持使用药物A、B或C的试验。如果没有合理高水平的决策支持,将无法做出治疗决定。因此,我认为AI将长期存在。我们如何应用它,如何确保它是安全的、符合HIPAA法规,并确保我们控制它而不是被它控制,这是兴奋和挑战的重要部分。”

对于病理学分析,使用AI工具的肿瘤学家表示,他们只用于发送病理检查结果、AlphaFold2用于抗体设计、提高未知原发癌的检测、电子病历或宫颈癌筛查中的细胞病理学目的,因为“这些工具可以更好地定义模棱两可的情况”。

关于患者报告的结果和生活质量工具,肿瘤学家表示他们使用AI进行生活质量问卷(26.7%)、基于AI的患者预后预测模型(23.3%)、症状跟踪(10.0%)或其他用途(53.3%),后者包括病史和主观报告及研究,许多受访者表示他们根本不使用这些工具。

调查还询问了肿瘤学家希望哪些特定的AI工具或技术可以在实践中使用,例如:

  • 放射学癌症分期的影像定义
  • 症状跟踪
  • 差异诊断
  • 治疗决策
  • 笔记记录/捕获诊所/患者会诊
  • 基因组发现分析
  • 临床试验筛选
  • 不良反应预测
  • 影像学
  • CT/MRI结果解读
  • 决策算法
  • 病理和影像分析
  • 优化搜索相关期刊文章
  • 整合分散的健康记录
  • 组织和更新进展记录
  • 患者预后

一位受访者表示,“我希望AI能回复门户消息,因为这些消息几乎不需要我的专业知识,却占用了我大量无薪时间。”另一位则表示希望看到“一种可以分析临床数据并给出某些基因、通路或细胞类型与患者生存之间关联的工具”。

Borgen指出了一些使用AI工具的成本和时间节省优势,但也提到了一个警示故事。“在即将举行的2025年迈阿密乳腺癌会议上,我的初级合作伙伴Joshua Feinberg博士将展示我们使用ChatGPT和Google Gemini进行的所有乳腺癌委员会考试——BESAP、SSO和ASBrS的考前和考后测试。两个平台大约答对了70%的问题。这还不错,除非你在使用Dr. Google,那么有30%的可能性答案是错误的。这些平台在影像分析、X光分析和病理分析方面表现不佳,但这并不意味着它们不会在未来变得更好。只是需要注意,如果你使用某个平台,必须了解它的优缺点及其局限性。”

调查还询问了医生对AI工具在癌症护理中准确性和可靠性的任何担忧。回应各不相同,其中一位参与者表示,“我们必须对所有事情‘持保留态度’。”其他回应包括:

  • HIPAA和隐私
  • 推荐的可靠性和有效性
  • 希望看到这些工具的验证
  • 测试它们并利用真实世界的研究
  • 可能忽略大局
  • 不适用于处方建议
  • 不可信

一位受访者表示,“AI工具可能会延续大型语言模型中固有的偏见,所以我们需要留意这一点。”另一位表示,“患者的病情复杂多变——不确定AI能否适应我们所有患者的内在异质性。”

伦理或实践上的挑战也被讨论,如“我们可以失去与患者的亲密接触和人性,还会忘记独立思考。”“AI集成与直接沟通在患者交流中的差异是否会因社会经济或人口统计特征而有所不同?AI的推荐是否会延续系统性偏见?”“制药公司是否会通过AI优先推广他们的产品。”

其他担忧还包括:

  • 患者的参与度
  • 隐私
  • 准确性和个性化
  • 缺乏现实检验
  • 保密性
  • 无法考虑患者治疗目标的细微差别
  • 对结果的信任
  • 加剧模型中的不平等和错误
  • 偏离AI规定的治疗算法将导致法律风险
  • 训练模型中与社会不平等相关的不良数据

最后,Borgen指出,虽然AI在肿瘤学中的应用前景令人兴奋,但表面才刚刚被触及。“AI还在非常初期的阶段,就像其他一切一样,我们必须谨慎前行。我们必须聪明地对待它。我有一辆自动驾驶汽车,但我不会真的让它自己驾驶,除了在史丹顿岛的走走停停交通中。我不打算上高速公路让这辆车带我走。面对肿瘤学的复杂性,建议我们不需要帮助来匹配治疗与疾病是愚蠢的。AI将成为这一过程的核心部分。有太多试验、微妙之处和细微差别,都将成为我们未来治疗患者的算法的一部分。AI不会让我们失业,它会让我们的工作变得不同。”


(全文结束)